Dependendo das manchetes mais populares do dia, a IA é uma panaceia ou o prenúncio definitivo da desgraça. Poderíamos resolver os problemas do mundo se perguntássemos ao algoritmo como. Ou ele vai “roubar” o seu emprego e se tornar inteligente demais para o próprio bem dele.
A verdade, como de costume, se encontra no meio do caminho. A IA provavelmente terá muitos impactos positivos que não mudarão o mundo, oferecendo, ao mesmo tempo, uma cargao de pessimismo que não chega a ser ameaçadora para a sociedade. Para identificar o meio termo, você precisa responder a algumas perguntas interessantes sobre o uso adequado da IA.
1. Podemos usar a IA sem supervisão humana?
A resposta completa a essa pergunta provavelmente daria muito pano para manga, mas não iremos tão longe. Em vez disso, podemos nos concentrar em um caso de uso que está se tornando cada vez mais popular e democratizado: assistentes de IA generativos. Até agora, você provavelmente já usou o ChatGPT, o Bard ou uma das dezenas de plataformas disponíveis para qualquer pessoa com um computador. Mas você pode solicitar esses algoritmos e ficar totalmente satisfeito com o que eles geram?
A resposta curta é: “Não”. Esses chatbots são capazes de ter alucinações, casos em que a IA inventa respostas. As respostas que oferece vêm do conjunto de dados de treinamento do algoritmo, mas podem não ter correspondência com o conhecimento da vida real. Veja a história recente de um advogado que apresentou um resumo em um tribunal. No final das contas, ele usou o ChatGPT para redigir todo o resumo, no qual a IA citou casos falsos para apoiar a causa . Quando se trata de IA, a supervisão humana provavelmente sempre será necessária.
Independentemente de o modelo estar analisando padrões climáticos para prever chuvas ou avaliando um modelo de negócios, ele ainda pode cometer erros ou até mesmo fornecer respostas que não fazem sentido lógico. O uso adequado da IA, especialmente com ferramentas como o ChatGPT e similares, exige um verificador de fatos humano.
2. Os criadores de IA podem corrigir o viés algorítmico posteriormente?
Outra vez, essa é uma questão mais complicada do que este espaço permite. Porém, podemos tentar examinar uma aplicação mais restrita da questão.
Considere que muitos algoritmos de IA no mundo real apresentam comportamento discriminatório. Por exemplo, uma ferramenta de IA apresentou uma taxa de erro muito maior dependendo do sexo ou da raça dos participantes. Outra classificou incorretamente o risco de um presidiário, levando a taxas desproporcionais de reincidência.
Então, será que aqueles que escrevem esses algoritmos podem corrigir essas preocupações depois que o modelo estiver ativo? Sim, os engenheiros sempre podem revisar o código e tentar ajustá-lo depois de publicar seus modelos. No entanto, o processo de avaliação e auditoria pode ser um esforço contínuo. Em vez disso, o que os criadores de IA podem fazer é se concentrar em ponderar os valores no começo dos seus modelos.
Os resultados dos algoritmos são tão convincentes quanto os dados nos quais eles foram treinados. Se um modelo for treinado em uma população de dados desproporcional à população que está tentando avaliar, esses vieses inerentes aparecerão quando o modelo estiver ativo. Por mais robusto que seja um modelo, ele ainda não terá o entendimento humano básico do que é certo ou errado. E, provavelmente, não é possível saber se um usuário o está aproveitando com intenções nefastas em mente.
Embora os criadores possam certamente fazer alterações depois de criar seus modelos, o melhor curso de ação é concentrar-se em incutir os valores que a IA deve exibir desde o primeiro dia.
3. Quem é responsável pelas ações de uma IA?
Há alguns anos, um veículo autônomo atropelou e matou um pedestre. A pergunta que se tornou o foco do incidente foi: “quem foi responsável pelo acidente?” Era o Uber, de quem era o carro? O motorista do carro? Nesse caso, o motorista do veículo, que estava sentado no carro, foi acusado de colocar o veículo em perigo. Mas e se o carro estivesse vazio e fosse totalmente autônomo? E se um carro autônomo não reconhecesse um pedestre que está atravessando a rua porque o semáforo estava na cor certa?
À medida que a IA se usa cada vez mais casos a nível público, a questão da responsabilidade se torna ainda mais importante. Algumas jurisdições, como a UE, estão avançando com a legislação que rege a culpabilidade da IA. A regra se esforçará para estabelecer diferentes “obrigações para provedores e usuários, dependendo do nível de risco” da IA. É do interesse de todos que você seja o mais cuidadoso possível ao usar a IA. O motorista do carro autônomo poderia ter prestado mais atenção à estrada, por exemplo.
As pessoas que compartilham conteúdo nas redes sociais podem fazer mais diligências para garantir que o que estão compartilhando não seja um deepfake ou outra forma de conteúdo gerado por IA.
4. Como podemos equilibrar os benefícios da IA com suas preocupações de segurança e privacidade?
Essa pode ser a questão mais urgente de todas as relacionadas ao uso adequado da IA. Qualquer algoritmo precisa de grandes quantidades de dados de treinamento para ser desenvolvido. Nos casos em que o modelo avalie pessoas reais para medidas antifraude, por exemplo, ele provavelmente precisará ser treinado com informações do mundo real.
Como as organizações garantem que os dados que usam não correm o risco de serem roubados? Como as pessoas sabem quais informações estão compartilhando e para quais finalidades elas estão sendo usadas? Essa grande pergunta é claramente uma colagem de perguntas menores e mais específicas que tentam chegar ao cerne da questão. O maior desafio relacionado a essas questões para os indivíduos é saber se eles podem confiar nas organizações que ostensivamente usam seus dados para o bem ou de forma segura.
5. As pessoas devem tomar medidas para garantir o uso adequado das suas informações
Para os indivíduos preocupados com o fato de suas informações estarem em perigo ou sendo usadas para treinamento de IA, existem algumas medidas que podem ser tomadas.
A primeira é sempre fazer uma seleção de cookies ao navegar online. Agora que a GPDR e a CCPA estão em vigor, praticamente todas as empresas que fazem negócios nos EUA ou na UE devem colocar um aviso em seus sites informando que coletam informações de navegação. No Brasil, existe a Lei Geral de Proteção de Dados (LGPD), equivalente e inspirada nas leis citadas acima. Verificar essas preferências é uma boa maneira de evitar que as empresas usem informações quando você não quiser.
A segunda é aproveitar ferramentas de terceiros, como a McAfee+, que oferece serviços como VPNs, privacidade e proteção de identidade como parte de uma plataforma de segurança abrangente. Com proteção total contra roubo de identidade, você terá uma camada adicional de segurança além das escolhas de cookies e outros bons hábitos de navegação que você desenvolveu. Não espere apenas que seus dados sejam usados adequadamente: proteja-os hoje mesmo.